Loading...
机构名称:
¥ 1.0

摘要。在生物医学应用中,大语言模型(LLM)的快速发展突显了其潜力与有限规模的差距,并且通常较低的可用开放源注释文本数据集的质量较低。此外,生物医学知识层次结构的固有复杂性显着阻碍了弥合这一差距的努力。LLM自己可以在克服这一限制中发挥关键作用吗?是出于这个问题的激励,我们在本研究中调查了这一挑战。我们提出了一个框架,该框架可以自动化从广泛的科学文献中蒸馏出高质量的文本培训数据。我们的方法自我评估并产生与生物医学领域更紧密一致的问题,并由生物医学知识层次结构通过医学主题(网格)引导。这个全面的框架建立了自动化的工作流程,从而消除了对手动干预的需求。此外,我们进行了全面的实验,以评估框架生成数据对不同尺寸下游语言模型的影响。与GPT-4代表的生命科学领域和强大的封闭源模型相比,我们的方法可以大大改善提问的任务。值得注意的是,生成的AI-Ready数据集使LLAMA3-70B基本模型使用MEDPROMPT多次使用MedPrompt胜过GPT-4。详细的案例研究和消融实验强调了我们框架5中每个组件的重要性。

arxiv:2501.15108V1 [CS.CL] 2025年1月25日

arxiv:2501.15108V1 [CS.CL] 2025年1月25日PDF文件第1页

arxiv:2501.15108V1 [CS.CL] 2025年1月25日PDF文件第2页

arxiv:2501.15108V1 [CS.CL] 2025年1月25日PDF文件第3页

arxiv:2501.15108V1 [CS.CL] 2025年1月25日PDF文件第4页

arxiv:2501.15108V1 [CS.CL] 2025年1月25日PDF文件第5页

相关文件推荐